分析数据的分布转移是当今机器学习的一个不断增长的研究方向,从而导致新的基准分析,重点是提供用于研究ML模型的概括属性的合适场景。现有的基准将重点放在监督的学习上,据我们所知,没有任何不受监督的学习。因此,我们引入了一个无监督的异常检测基准,其数据随着时间的流逝而变化,该数据随着时间的推移而变化,该数据是在京都-2006+上建立的,这是一个用于网络入侵检测的流量数据集。这种数据符合转移输入分布的前提:它涵盖了较大的时间跨度($ 10美元),随着时间的推移,自然发生的变化(\ eg用户正在修改其行为模式和软件更新)。我们首先使用基本的均衡分析,T-SNE和最佳运输方法来强调数据的非平稳性质,以测量年份之间的整体分布距离。接下来,我们提出AnoShift,该协议将数据分配为IID,近乎远距离测试拆分。我们通过不同的模型(传统到经典隔离林)来验证随时间推移的性能降解。最后,我们表明,通过确认分配转移问题并正确解决该问题,与经典的IID培训相比,性能可以提高(平均最高3美元\%$)。数据集和代码可在https://github.com/bit-ml/anoshift/上找到。
translated by 谷歌翻译
人类能力同步其所有感官的反馈启发了最近在多任务和多模态学习中的作品。虽然这些作品依赖于昂贵的监督,但我们的多任务图只需要来自专家模型的伪标签。每个图形节点代表任务,每个边沿都会在任务转换之间学习。一旦初始化,图表就会根据新的共识班算法学习自我监督,智能地利用图形路径之间的协议来为下一个学习周期生成新的伪标签。我们展示了一个无人监督的学习迭代到下一个令人市场,优于两个具有挑战性的数据集中的广泛的多任务学习实验中的最新相关方法的显着改善。我们的代码可在https://github.com/bit-ml/cshift中获得。
translated by 谷歌翻译
Large language models (LLMs) have been shown to be able to perform new tasks based on a few demonstrations or natural language instructions. While these capabilities have led to widespread adoption, most LLMs are developed by resource-rich organizations and are frequently kept from the public. As a step towards democratizing this powerful technology, we present BLOOM, a 176B-parameter open-access language model designed and built thanks to a collaboration of hundreds of researchers. BLOOM is a decoder-only Transformer language model that was trained on the ROOTS corpus, a dataset comprising hundreds of sources in 46 natural and 13 programming languages (59 in total). We find that BLOOM achieves competitive performance on a wide variety of benchmarks, with stronger results after undergoing multitask prompted finetuning. To facilitate future research and applications using LLMs, we publicly release our models and code under the Responsible AI License.
translated by 谷歌翻译
Eye movements are known to reflect cognitive processes in reading, and psychological reading research has shown that eye gaze patterns differ between readers with and without dyslexia. In recent years, researchers have attempted to classify readers with dyslexia based on their eye movements using Support Vector Machines (SVMs). However, these approaches (i) are based on highly aggregated features averaged over all words read by a participant, thus disregarding the sequential nature of the eye movements, and (ii) do not consider the linguistic stimulus and its interaction with the reader's eye movements. In the present work, we propose two simple sequence models that process eye movements on the entire stimulus without the need of aggregating features across the sentence. Additionally, we incorporate the linguistic stimulus into the model in two ways -- contextualized word embeddings and manually extracted linguistic features. The models are evaluated on a Mandarin Chinese dataset containing eye movements from children with and without dyslexia. Our results show that (i) even for a logographic script such as Chinese, sequence models are able to classify dyslexia on eye gaze sequences, reaching state-of-the-art performance, and (ii) incorporating the linguistic stimulus does not help to improve classification performance.
translated by 谷歌翻译
由于管理部分微分方程的半差异,例如通过有限元方法。这些系统的复杂性提出了直接应用自动控制的计算挑战。虽然模型还原已在控制中看到无处不在的应用,但在这种情况下使用非线性模型还原方法仍然很困难。问题在于在降低的订单模型中保留非线性动力学的结构,以进行高保真控制。在这项工作中,我们利用光谱亚曼佛(SSM)理论的最新进展来使模型在明确的假设下降低,以有效地合成反馈控制器。
translated by 谷歌翻译
由于其固有的非线性和高度的自由度,对连续体软机器人的建模和控制仍然是一项艰巨的任务。这些复杂性阻碍了适合实时控制的高保真模型的构建。尽管已经提出了各种模型和基于学习的方法来应对这些挑战,但它们缺乏普遍性,很少保留动态的结构。在这项工作中,我们提出了一种新的,数据驱动的方法,用于从数据中提取面向控制的模型。我们克服了上面概述的问题,并证明了我们对光谱次级减少(SSMR)的卓越性能 - \'a-vis the Art的状态。
translated by 谷歌翻译
图形匹配优化问题是计算机视觉中许多任务的重要组成部分,例如在通信中带来两个可变形对象。自然,在过去的几十年中,已经提出了广泛的适用算法。由于尚未开发出通用的标准基准,因此由于对不同的问题实例的评估和标准使结果无与伦比,因此通常很难验证其绩效主张。为了解决这些缺点,我们提出了匹配算法的比较研究。我们创建了一个统一的基准测试标准,在其中收集和分类了一组现有和公开可用的计算机视觉图形匹配问题,以通用格式。同时,我们收集和分类图形匹配算法的最流行的开源实现。它们的性能以与比较优化算法的最佳实践相符的方式进行评估。该研究旨在可再现和扩展,以作为未来的宝贵资源。我们的研究提供了三个值得注意的见解:1。)流行问题实例在少于1秒的时间内完全可以解决,因此不足以进行将来的经​​验评估; 2.)最受欢迎的基线方法高于最佳可用方法; 3.)尽管该问题存在NP硬度,但即使对于具有超过500个顶点的图形,也可以在几秒钟内求解来自视力应用程序的实例。
translated by 谷歌翻译
培训和评估语言模型越来越多地要求构建元数据 - 多样化的策划数据收集,并具有清晰的出处。自然语言提示最近通过将现有的,有监督的数据集转换为多种新颖的预处理任务,突出了元数据策划的好处,从而改善了零击的概括。尽管将这些以数据为中心的方法转化为生物医学语言建模的通用域文本成功,但由于标记的生物医学数据集在流行的数据中心中的代表性大大不足,因此仍然具有挑战性。为了应对这一挑战,我们介绍了BigBio一个由126个以上的生物医学NLP数据集的社区库,目前涵盖12个任务类别和10多种语言。 BigBio通过对数据集及其元数据进行程序化访问来促进可再现的元数据策划,并与当前的平台兼容,以及时工程和端到端的几个/零射击语言模型评估。我们讨论了我们的任务架构协调,数据审核,贡献指南的过程,并概述了两个说明性用例:生物医学提示和大规模,多任务学习的零射门评估。 BigBio是一项持续的社区努力,可在https://github.com/bigscience-workshop/biomedical上获得。
translated by 谷歌翻译
我们开发一种方法来构造来自表示基本上非线性(或不可连锁的)动态系统的数据集构成低维预测模型,其中具有由有限许多频率的外部强制进行外部矫正的双曲线线性部分。我们的数据驱动,稀疏,非线性模型获得为低维,吸引动力系统的光谱子纤维(SSM)的降低的动态的延长正常形式。我们说明了数据驱动的SSM降低了高维数值数据集的功率和涉及梁振荡,涡旋脱落和水箱中的晃动的实验测量。我们发现,在未加工的数据上培训的SSM减少也在额外的外部强制下准确预测非线性响应。
translated by 谷歌翻译